- stochastischer Kern
- стохастичное ядро
Немецко-русский математический словарь. 2013.
Немецко-русский математический словарь. 2013.
Stochastischer Kern — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen. Sie… … Deutsch Wikipedia
Markov-Kern — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen. Sie… … Deutsch Wikipedia
Markow-Kern — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen. Sie… … Deutsch Wikipedia
Übergangswahrscheinlichkeit — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen.… … Deutsch Wikipedia
Bedingte Erwartung — Bedingte Erwartungswerte und bedingte Wahrscheinlichkeiten bezüglich einer Teil σ Algebra stellen eine Verallgemeinerung von bedingten Wahrscheinlichkeiten dar. Sie werden unter anderem bei der Formulierung von Martingalen verwendet.… … Deutsch Wikipedia
Stochastische Matrix — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen. Sie… … Deutsch Wikipedia
Markow-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette, Markof Kette) ist ein spezieller stochastischer Prozess. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Harris-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markoffkette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia